Dieser Audiobeitrag wird von der Universität Erlangen-Nürnberg präsentiert.
Grüß Gott zusammen. Wir hatten uns letztes Mal mit dem Newton-Verfahren beschäftigt und
zwar in seiner Grundform. Damit meine ich, wir gehen einfach mal davon aus, wir stellen
das Gleichungssystem in der Linearisierung exakt auf und wir lösen es auch exakt.
Typischerweise mit einem direkten Löser. Was man da eventuell noch machen kann, das ist etwas,
was wir dann in einem zweiten Schritt wahrscheinlich noch heute besprechen werden. Ich möchte aber
erstmal das Thema zum einen abschließen, zum anderen etwas erweitern. Also hier ist
noch mal in Erinnerung gerufen, einer der beiden Konvergenzsätze, die wir hatten,
der im Wesentlichen aussagt, also ganz grob, was brauchen wir? Wir brauchen ein bisschen mehr als
Differenzierbarkeit, nämlich wir brauchen so etwas wie die libschitzstätige Abhängigkeit der
Jakobimatris, also ein bisschen weniger als zweimal Differenzierbarkeit und dann können wir,
und das kann man auch formal quantifizieren, eine Umgebung, entweder hier ist es so formuliert,
um die Startiterierte finden, sodass wir dann sicherstellen, alle iterierten bleiben in dieser
Umgebung, in dieser Umgebung gibt es eine Lösung und die Folge, die Newton-Folge konvergiert gegen
diese Lösung, ist erstmal wohl definiert und konvergiert gegen diese Lösung und die Konvergenz
ist sogar quadratisch. Das heißt also, wir können davon ausgehen, dass der Fehler bis auf einen
Faktor, der durchaus groß sein kann, in jedem Schritt quadriert wird. Das heißt, im Idealfall,
wenn dieser Faktor eben nicht groß ist, im Idealfall sehen wir eine Verdoppelung der
signifikanten Stellen. Das wird aber eben typischerweise nur sehr dicht an der Lösung
an der Lösung dann so vonstatten gehen, wie wir es auch schon in Beispielen gesehen haben.
Wenn wir zu weit von der Lösung weg sind, kann es durchaus sein, dass das Newton-Verfahren
divergiert oder gar nicht definiert ist. Okay, jetzt haben wir die Grundform ja schon zumindest
als Programmieraufgabe formuliert. Jetzt brauchen wir noch ein Abbruchkriterium. Es gibt hier noch
eine Seitenüberlegung, die früher oder da gab es mal Kollegen, die haben dir eben sehr viel
Bedeutung beigemessen, deswegen will ich sie jetzt hier nicht verschweigen. Das ist die Frage nach
der sogenannten Affin-Invarianz. Was soll das bedeuten? Es ist ja so, wenn wir ein allgemeines
Nullstellenproblem haben, f von x gleich 0 und das mit einer invertieren, dann können wir das mit
einer invertierbaren Matrix multiplizieren und das Ganze bleibt so, f von x gleich 0. Das Schöne ist,
das Newton-Verfahren verändert sich auch nicht. Wenn man auf diese Gleichung hier das Newton-Verfahren
loslässt, heißt das ja, dass die Korrektur dadurch bestimmt wird, dass wir ein Gleichungssystem
lösen, wobei der Defekt jetzt an der Stelle x über a f von x bestimmt wird und die Systemmatrix ist
jetzt die Jacobi-Matrix von a f. Wenn man aber die jetzt ausrechnet nach der Kettenregel, bekommen
wir a komponiert mit d f. Die Inverse ist die Inverse von d f mal die Inverse von a. Das heißt,
die a-Anteile heben sich hier gerade auf. Das heißt, wir sind wieder bei der Original-Situation.
Das heißt, so eine affine, so eine lineare Skalierung mit einer nicht singulären Matrix,
mit einer invertierbaren Matrix, ändert nichts am Newton-Verfahren. Wenn man aber noch mal zurückblättert,
wird man sehen, dass die Bedingungen, die wir für die Konvergenz gestellt haben, durchaus eben nicht
so gestellt sind, dass sie auch affin invariant sind. Das fängt an mit dieser Bedingung über die
Lipschitz-Stätigkeit. Die Lipschitz-Konstante ändert sich natürlich, wenn ich das mit dem a hier
skaliere. Dementsprechend ändern sich auch die Bedingungen, die eben auf diese Konstanten hier
und auf die Größe der Ableitungen hier und hier Bezug nehmen. An der Stelle nicht, wie wir gerade
gesehen haben, aber an der Stelle würde sich etwas ändern und eben in diesem Gamma würde sich was
ändern. Wenn man das nicht will, kann man den Satz auch ein bisschen anders formulieren und zwar
kann man das so interpretieren, dass man eine Art variable Skalierung mit in die Norm aufnimmt.
Das heißt also anstelle der Lipschitz-Stätigkeit der Jacobi-Matrix, das wäre diese Klammer hier,
die Norm über diese Klammer hier, von der wir dann bisher gefordert haben, sie soll sich
lipschitz-stätig verhalten, das heißt sich durch ein Gamma mal die Norm von x minus y abschätzen
lassen, nehmen wir jetzt hier noch eine Skalierungsmatrix rein. Das können wir machen,
wenn das eine feste Invertierbare-Matrix wäre, würde das einfach eine neue Norm definieren.
Nun ist das aber jetzt keine feste Matrix, sondern es ist sozusagen y-abhängig. Das wäre jetzt die
Presenters
Zugänglich über
Offener Zugang
Dauer
01:32:25 Min
Aufnahmedatum
2012-12-17
Hochgeladen am
2013-08-08 00:59:48
Sprache
de-DE
- Fehleranalyse (Gleitpunktdarstellung, Rundung, Fehlerfortpflanzung, Kondition, Gutartigkeit)
- Polynominterpolation (Dividierte Differenzen, Interpolationsfehler)
- Asymptotische Entwicklungen und Extrapolation (Richardson-Extrapolation)
- Numerische Integration (Newton-Cotes-Formel, Romberg-Integration, Gaußsche Integration)
- Lineare Gleichungssysteme (Gaußscher Algorithmus, LR-Zerlegung, Cholesky-Zerlegung, Matrixnormen, Fehlerabschätzungen)
- Nichtlineare Gleichungssysteme (Fixpunktsätze, Konvergenzordnungsbegriffe, Newton-Verfahren, iterative Verfahren für LGS)
- Lineare Ausgleichsrechnung
- etc.